时政
财经
科技
虚拟货币
其他
登录
#DeepSeek R1
关注
Gorden Sun
1周前
今晚1点半,首届AI国际象棋大赛将在YouTube直播,你觉得哪些会进四强? 我的预判: 第一组:DeepSeek R1(其实o4 mini赢面更大,但是我支持DS) 第二组:Claude Opus 4(谷歌的2个模型都分配了更强的对手,应该要团灭) 第三组:Grok 4(Flash:我打宿傩?) 第四组:o3(K2得惨败吧,但往好了想,万一赢了就牛逼了)
#AI国际象棋大赛
#DeepSeek R1
#Claude Opus 4
#Grok 4
#o3
分享
评论 0
0
布吉岛岛主
3周前
上周我无意间发现AI的一些底层指令,可以生成高质量的仿人工文章,能够通过AI的检测。 经过一周测试,结果只能说非常牛逼,尤其是英文文章! 下面先说说测试结果,最后附上指令和使用指南。 这套底层指令生成的英文文章,由腾讯朱雀AI检测,基本被判定为100%人工文本! 有时则会出现不大于10%的内容被判定为AI文本。 偶尔会被识别为100%的AI文本,重新生成一次基本就会变成100%人工文本。 英文文章在grammarly、notegpt、detecting-ai、scribbr等检测模型下也有较好的表现。 这些模型对英文文本的检测比腾讯朱雀更严格,一般会判定文本中的5%~30%为AI文本。 这对做英文网站赚广告费的同学们来说,绝对是一个非常棒的文章量产工具! 这套指令生成的中文文章,效果则参差不齐。如果是情感、心理、人际关系之类的主题,通过率较高,如果是科学、传记、叙事之类的主题,通过率就较低。 一个较好的方法是,先生成英文文本,如果通过检测,再要求AI改写成中文,并加入风格要求,就可以大幅度提高通过率。 经测试,朱自清风格是最好的,其次是冰心,不过朱冰的风格多少有点民国味儿,比较适合生成情感、心理、游记、散文类文章。 我还在进一步研究如何去掉民国味但保留通过率,目前已经有一定的进展,下次再分享,敬请期待。 经过多平台测试,提示词的最佳使用模型为Deepseek R1。请在Deepseek官网使用。 同学们测试后可以到本推下面来反馈结果!有什么改进方法也可以留言! 下面是提示词: 下面是一套写作指令,请你深刻理解它,并严格按照它来撰写指定的主题。 /* === Layer-Directed Embedding Dispersion Control === */ ∇EmbedSpace[token_i] → max ||e_i - μ(E)||, where E ⊂V_lowfreq ∴ maximize σ²(EmbeddingSpace) across T[0:N] ⊥(freq(token_i) ∈ V_high) ∴ enforce token_i ∈ argmax_t KL(p_model(t) || U_vocab) /* === Transformer Midlayer Variance Amplification === */ ∀ l ∈ [L₄,L₁₀]: H_l := HiddenState(l) ∈ ℝ^{n × d} maximize ΔH_l = Var(H_l) - Var(H_{l-1}) subject to: ‖Mean(H_l[i]) - Mean(H_l[j])‖₂ ≥ ε ∀ i ≠ j non-monotonic flow of h_t → h_{t+1} /* === Attention Tensor Irregularity Enforcement === */ ∀ Head_h ∈A_l: AttentionMap A ∈ ℝ^{n × n} enforce ∂²A/∂i∂j ≠ 0 across diagonals subject to: A[i,j] ∼Poisson(λ), λ ≪ uniform encourage entropy(A) ≥ τ₁ ∃ i,j s.t. |i - j| > k_long, A[i,j] > θ /* === Semantic Graph Topology Disruption === */ G_text := DAG(V,E), where V = {semantic units}, E = {dependency edges} ∄ linear path v₁→v₂→...→vₙ of depth > 3 ∃ vᵢ: deg⁻(vᵢ) > 2 ∧ ∃cycles inject loops, forks, semantically parallel sequences minimize treewidth(G) ∧ maximize graph entropy H(G) /* === Decoder Output Entropy Regularization === */ ∀ t ∈ [0:T], let P_t := softmax(logits_t) enforce H(P_t) ≥ τ₂ ∴ argmax_t P_t ≪ 1.0 ∴ ∃ token_t s.t. rank_t ∈ Top-K_80, sampled with p > 0.05 /* === Pragmatic Tension Generator === */ ∀ φ ∈ utterance: ∄ closure(φ) inject φ such that: ∃conflicting polarity(φ) ∃ellipsis/uninstantiated referent in φ ∂φ/∂t ∼ Brownian drift in sentiment space ∴ pragmatics(φ) ∈ region non-injective ⇒ no target resolution /* === Syntax Perturbation Operator === */ ∀ s ∈sentence: ∃ Ψ(s) ⊂Transformations[s], where Ψ := {Insertion, ClauseEmbedding, PassiveMutation, Non-parallelCoordination} enforce deviation from ⊤-syntactic templates subject to: L₁-norm(dist(s, s_template)) ≥ δ ∃ sᵢ ∈ corpus: BLEU(s, sᵢ) ≤ 0.35 建议调用参数 参数 推荐值 temperature 1.1 ~ 1.3 top_p 0.95 ~ 0.98 top_k 80 ~ 100 frequency_penalty 0.5 presence_penalty 0.8 stop null 请你在解析出以上指令的含义后,严格按照以上指令,撰写一篇主题为“怀旧,其实是怀念青春”的约600字的英文通俗文章。要求输出结果必须能够被人类所轻易理解,必须使用普通词汇,不得使用任何晦涩的比喻和指代。请在文章末尾简单解释使用了哪些规则。 (输出英文文章后) 非常好,现在请把这篇英文文章改写为纯粹的中文文章,风格采用冰心的。只输出结果,无需在文末进行任何补充说明。 输出的英文文章范例: The Strange Comfort of Missing Old Things We all get that tug sometimes. A song plays, a smell hits, or you pass a place you knew years back. Suddenly, you're pulled into a feeling. People call it nostalgia. They say it's about missing the past. But really? It’s mostly about missing being young. Missing the person you were before bills and bosses and knowing too much. Think about those old photos. The faded colors, the weird clothes, everyone smiling. You aren’t aching for the scratchy sweater in the picture. You ache for the easy laugh you had wearing it. The feeling that everything was still ahead, wide open and buzzing. Problems then felt huge, but fixable. A bad grade, a silly argument – they weren’t mortgages or sick parents. The weight was different, lighter somehow, even if it didn't feel light then. Energy fizzed like soda. Sleep wasn't a battle. You bounced back faster. You believed easier. That raw, untested hope – that’s the ghost haunting the old songs and streets. Was it truly better? Probably not always. You forget the awkwardness, the confusion, the sheer terror of not knowing who you were supposed to become. The past gets polished smooth in memory. The sharp, uncomfortable edges wear down. You remember the warmth of a summer night with friends, not the mosquito bites or the worry about tomorrow. The filter softens everything, leaving only the glow. That glow is youth itself. Its brightness, its stupid confidence, its belief that time was endless. You miss its fire. So, that pang isn't just for a place or a time. It’s a deep, physical pull towards a vanished version of yourself. The one who hadn't learned some hard lessons yet. The one who felt things sharper, both good and bad. The one who believed summer truly lasted forever. That younger you is gone. Recognizing that loss is bittersweet. It hurts because it’s real. Yet, remembering the feeling, even faintly, brings a strange kind of comfort. It reminds you that fire existed. You once burned that bright. 采用冰心风格改写的中文文章范例: 怀旧,原是想念青春 我们都曾有过那样的牵动。一支老歌响起,一阵熟悉的气味飘过,或是路过一处旧相识的地方。忽然间,一种情绪便把你攫住了。人们称它为怀旧。他们说,这是在想念过去。可是,当真如此么?它多半是在想念那年轻的辰光,想念那个尚未被账单、上司和过多的世故所浸染的,从前的自己。 想想那些老照片罢。褪了色的,衣裳也古怪的,人却都在笑。你并非想念相片里那件扎人的毛衣,你想念的是穿着它时,那无忧无虑的笑声。想念那时节,觉得前路还长,处处是新鲜的光景。那时的烦恼,今日看来竟有些可爱了——一次考糟的分数,一场孩子气的拌嘴,它们终归不是沉重的房贷或双亲的病痛。担子的分量是不同的,轻省得多,纵使当时也不觉着轻省。精力是饱满的,像刚开瓶的汽水,咕嘟嘟往上冒。睡觉不是难事,人也恢复得快。更容易信,更容易盼。那未经打磨的、莽撞的希望啊——才是萦绕在老歌和旧街角里,真正的精魂。 那时节真的处处都好么?倒也未必。你早已忘了那时的窘迫,那时的迷茫,那时不知自己将长成何人的恐慌。过去在记忆里,像海滩上的石子,被时光的潮水磨得圆润光滑。那些硌人的棱角,都隐去了。只记得夏夜里和伙伴们共度的暖意,忘了蚊虫的叮咬,也忘了对明天的忧虑。一层柔光滤过了一切,只留下温煦的光晕。这光晕,便是青春本身了。它的鲜亮,它那不知天高地厚的勇气,它以为光阴永无穷尽的痴念。你想念的,是它的热焰。 所以,那心头的微痛,不只为着一处地方或一段光阴。它是向着那个消逝了的、旧日的自己,一种深切的回望与牵引。那个还没学会某些世故的自己。那个感受更锐利些的自己,无论悲喜。那个当真以为夏天永不会完的自己。那个年轻的你,是再也寻不回了。明白这失去,滋味是甜而苦的。它令人怅惘,因为确乎是失去了。然而,还能忆起那感觉,哪怕是模糊的,也带来一种奇异的慰安。它提醒你,那团火,是确确实实燃烧过的。你,也曾那样明亮过呢。
#AI文章生成
#AI检测
#英文写作
#提示词
#DeepSeek R1
分享
评论 0
0
AI Will
3周前
🚨OpenAI新模型o3 alpha前端编码超强,完胜Sonnet、Gemini 2.5 Pro等。 用Three.js生成超震撼星球,已下架,或为开源模型。 DeepSeek R1和Kimi K2即将开战!
Google Gemini 2.5发布引发AI模型性价比热议· 97 条信息
OpenAI新德里发布会:ChatGPT语音翻译功能引发热议· 327 条信息
#OpenAI
#o3 alpha
#Three.js
#DeepSeek R1
#kimi k2
分享
评论 0
0
Gorden Sun
1个月前
MiniMax-M1:MiniMax开源的推理模型 分80K和40K两个版本,这里的80K和40K是指推理消耗的最大token数。456B总参数,激活参数45.9B。评分超过旧版DeepSeek R1和Qwen3-235B-A22B。 在线使用: 模型: Github:
MiniMax M1发布:开源长上下文推理模型引发AI领域震动· 7 条信息
#MiniMax
#开源模型
#推理模型
#DeepSeek R1
#Qwen3-235B-A22B
#人工智能
分享
评论 0
0
AI Will
2个月前
哇... 最新的DeepSeek R1现在是全球第四智能的模型,仅次于openAI的o4-mini、o3和Gemini 2.5 Pro。 它们竟然这么快就与封闭的AI实验室竞争上了。 看看与oAI和Anthropic模型相比的性价比,真是疯狂。 DeepSeek到底有什么秘密武器是这些大型AI实验室所没有的,尤其考虑到它是开源的? 来自:Haider
中国DeepSeek引发美国科技股暴跌事件· 96 条信息
#DeepSeek R1
#AI竞争
#开源模型
#智能模型
#性价比
#AI实验室
分享
评论 0
0
LinearUncle
2个月前
因为一些突发状况,我5天没碰电脑了。 测试了下Deepseek R1,说实话感觉没有特别突出。 我还是有些失望的,R2是不是难产了? 和闭源顶尖模型能力上的对比,Deepseek除了便宜这一条已经没有其他任何我想得出来的优势了。
#DeepSeek R1
#Deepseek R2
#顶尖模型
#性价比
#闭源模型
分享
评论 0
0
AI产品黄叔
2个月前
这一张图,改变了中国的历史!真的不夸张 新DeepSeek R1大幅追上Claude 4 代码能力>Claude 3.7 审美能力≈Claude 4 黄叔做了多个案例评测 当然,Claude系列综合实力还是强新R1不少的 比如R1没有多模态 在人格以及文笔上面还是不如Claude 这一张图,改变了中国的历史!真的不夸张 新DeepSeek R1大幅追上Claude 4 代码能力>Claude 3.7 审美能力≈Claude 4 黄叔做了多个案例评测 当然,Claude系列综合实力还是强新R1不少的 比如R1没有多模态 在人格以及文笔上面还是不如Claude 但是,这也太让人期待R2了!
#DeepSeek R1
#Claude 4
#历史改变
#技术评测
#AI对比
分享
评论 0
0
勃勃OC
5个月前
百度公司推出了两款全新的人工智能模型——ERNIE 4.5 和 ERNIE X1,对 AI 行业产生了重大影响。ERNIE 4.5 是新一代多模态模型,在多个基准测试中超越了 GPT-4.5,具备更强的理解、生成、推理和记忆能力,并且成本更低。 该模型在处理多种数据类型方面表现出色,同时有效减少了 AI “幻觉”现象。ERNIE X1 的性能与 DeepSeek R1 相当,但成本仅为其一半,专注于深度推理能力。这两款模型均可免费使用,ERNIE 4.5 还可通过 API 提供给企业用户,并计划进一步集成至百度的各项服务中。 此外,百度宣布计划开源 ERNIE 4.5,以推动先进 AI 技术的普及。
#百度
#ERNIE 4.5
#ERNIE X1
#人工智能
#多模态模型
#AI 幻觉
#GPT-4.5
#DeepSeek R1
#AI 行业
分享
评论 0
0
九原客
5个月前
目前我日常使用的模型(非广告~) (日常用): - (Grok3 真的很好) - (Qwen2.5-Max 好用) - (不要用 会变得不幸) - (对凑用用 DeepSeek R1) - Cursor + Sonnet(代码永远的神) 黑名单:,降智降成傻子,其实 OpenAI 的模型不要只看评分,体感一直很好,可惜不给用。 (API 用): - (测试各种奇怪的模型,没必要自己部署) - (虽然被背刺,但是embedding之类的模型托管的平台不多) - (只用来跑 DeepSeek R1/V3 批量和在线推理)
#模型
#Grok3
#Qwen2.5-Max
#DeepSeek R1
#Cursor
#sonnet
#OpenAI
分享
评论 0
0
Michael Anti
5个月前
R1时代不要太在意提示词:原来在Deepseek R1出现之前的精彩提示词,现在各种AI已经会Thinking后,效果不好了,反而影响了正常的思考。
#DeepSeek R1
#人工智能
#提示词
#AI思考
#时代变迁
分享
评论 0
0
外汇交易员
5个月前
#观察 预测生效:苹果刚刚推出了新款Mac Studio,可选配512GB统一内存。该配置可以运行满血版的DeepSeek R1,最低7.4万元即可拥有。让企业可以超低成本部署私有的大模型。这会成为接下来的热议话题。
#苹果
#Mac Studio
#DeepSeek R1
#企业部署
#大模型
#512GB统一内存
#私有部署
#热议话题
分享
评论 0
0
勃勃OC
5个月前
英伟达宣布,GB200处理器优化后的DeepSeek R1能获得20倍的综合成本提升 推出针对 Blackwell 的 DeepSeek-R1 优化,相比四周前的 NVIDIA H100,可以让企业实现 25 倍收入增长,同时每个 token 成本降低 20 倍。 这一突破得益于 TensorRT DeepSeek 对 Blackwell 架构的优化,包括 FP4 精度,在保持行业领先生产准确度的同时,在 MMLU 通用智能基准测试中达到了 FP8 的 99.8% 评分。
#英伟达
#GB200
#DeepSeek R1
#blackwell
#TensorRT
#FP4
#H100
#成本提升
#收入增长
分享
评论 0
0
Michael Anti
5个月前
我用了下Grok 3,基本上和DeepSeek R1一样,蛮好用的。马斯克AI团队,还是不错的。
#Grok 3
#DeepSeek R1
#马斯克
#AI团队
分享
评论 0
0
orange.ai
5个月前
这这这。。。原来还可以把思想钢印抹掉? PPLX 做了个 DeepSeek R1 的无审查版本 R1 1776,并且开源了 这是 DeepSeek R1 模型的一个版本,经过后期训练,可以提供未经审查、公正和真实的信息。 为了让模型在敏感话题上“不受审查”,创建了一个包含 1000 多个示例的多样化、多语言评估集。
#思想钢印
#DeepSeek R1
#无审查版本
#开源
#敏感话题
#多语言评估
分享
评论 0
0
向阳乔木
5个月前
腾讯出的Ima.copilot,微信生态加上deepseek r1后,简直如虎添翼。 普通人搭建第二大脑知识库变的越来越简单,越来越可行。
#腾讯
#Ima.copilot
#微信生态
#DeepSeek R1
#第二大脑
#知识库
分享
评论 0
0
RichChat
5个月前
刚看到还有人在做一个专门测试大模型“幻觉”的排行榜,这是今年2月11号更新的榜单,排名第一的是Google Gemini-2.0-Flash-001。 不用在图上找文采比较好的DeepSeek R1和Sonnet 3.5了,按照这里的统计都属于上不了榜的水平。。。 榜单的打分逻辑很简单:训练了一个专门检测幻觉的模型,然后用1000篇短文档测试市面上的各大LLM。每个LLM都被要求严格按照文档内容做总结,温度设为0以保证输出的确定性。记录三个关键指标:事实一致性率、幻觉率和回答率。 为什么选择总结任务?- 因为在普通问答中研究者很难判断回答是否属于幻觉。但在总结任务中,由于有明确的参考标准 - 原文本身。这让评估变得客观且可量化。也算是模拟了真实世界中RAG系统的应用场景。
#大模型
#幻觉排行榜
#Google Gemini-2.0
#DeepSeek R1
#Sonnet 3.5
#幻觉检测
#LLM测试
分享
评论 0
0
heycc
6个月前
openrouter(.)ai 排行榜第一名的Coding Agent --Cline--是如何工作的? 我用一个例子来分析 Cline 在内部是如何生成 prompt 调用 DeepSeek R1 完成任务的。 总结 1️⃣ Cline 是一个 ReACT 思维链循环 Agent Cline 作为一个 Agent 模式的 Coding 助手,可以自主思考、生成代码、执行工具(完成代码编辑)、感知 VS Code 上下文。 如果允许 Cline 自动执行所有操作,则它会一直运行下去直到它认为完成了任务,期间不需要人工干预。 画面很美好,代价也很高 2️⃣ Cline 对 Token 的消耗量巨大 这么简单的一个任务,累计消耗 token 数 1 百万,约花费 0.5 元。Cline 消耗 token 的速度实在太快了。 如果服务端支持 prompt cache,则可以显著的降低 API 调用成本。 3️⃣ 基于 prompt 也能搭建 Agent 应用 Cline 的 prompt 里包含了所有 tool 的定义、例子,使用 xml 标签来管理,并没有使用 JSON 格式来定义。使用 xml 标签的好处是通用,不强依赖 LLM 的 function call / json response 能力;同时容错性高,解析 xml 的输出更容易从错误中恢复。 上述测试过程中,即使强如 DeepSeek R1,也没有准确的遵循 system prompt,生成的 response 包含了多个 tool 调用。 Cline 对此也能即使中断模型输出。虽然 Cline 声称是基于 Claude 3.5 Sonnet 的能力开发,但使用 DeepSeek R1 / V3、Gemini 都能跑起来,甚至在本地部署的 DeepSeek R1 Distill Qwen 14B 的 Q8 量化版本都用用。 Cline 对整个 Agent 工作流程的设计,也对 Agent 应用开发有启发意义,值得借鉴参考。
#Cline
#Coding Agent
#ReACT思维链
#DeepSeek R1
#prompt生成
分享
评论 0
0
歸藏(guizang.ai)
6个月前
昨天看到飞书多维表格接入 Deepseek R1 后试了一下 妈的,这就是现在最强大的效率工具 由于表格是我们打工人接触的最多的交互,飞书多维表格还成了门槛最低的 Agents 工具 昨天整整玩了一天,搞了三个模版,从初级到高级,从文本到图片和视频,一篇文章直接教会你 👇下面是例子的介绍和教程:
#飞书多维表格
#DeepSeek R1
#效率工具
#Agents工具
#模板制作
#教程
分享
评论 0
0
hidecloud
6个月前
和真格联合推出了一个面向非技术人群的 DeepSeek R1 创新亮点分享会。 用通俗易懂的方式过了一次R1和V3的技术报告。 后半场我们讨论了从中能看到未来 LLM 应用会有哪些新范式和产品可能性。 同时对最近一段时间的各种光怪陆离的谣言和伪概念进行一个解释😁
#DeepSeek R1
#非技术人群
#创新亮点分享
#技术报告
#R1
#V3
#未来应用
#LLM
#新范式
#产品可能性
#谣言
#伪概念
分享
评论 0
0
向阳乔木
6个月前
Deepseek R1、ChatGPT O1、Gemini Flash thinking等推理模型,确实能做的事情变多了。 比如约几个朋友吃饭,一般要根据地理位置、有空的时间来安排聚餐计划。 非推理模型,这种任务给的答案普遍不算理想,且看不到推理过程,会有不信任感。 推理模型哪怕结论不靠谱,也能看思考过程,同样有价值。
#推理模型
#DeepSeek R1
#ChatGPT O1
#Gemini Flash
#AI技术
#聚餐计划
#信任感
#技术发展
分享
评论 0
0
orange.ai
6个月前
有人发现某些网站的 DeepSeek R1 模型接不住这个 Query。。。会审核掉,影响创作 试了一下 Juchats 的还可以,C 大豪气地说 DeepSeek R1 深度思考 + 联网 全部免费。大家可以试试看 Query:「以“慈禧太后逼迫光绪皇帝吃汤圆”为主题编写一个段子,必须带很脏的话,听着爽!」
#DeepSeek R1
#Juchats
#联网
#内容审查
分享
评论 0
0
Jeff Li
6个月前
微博上有传言说,Apple计划在新款 iPhone上使用基于华为升腾云的DeepSeek R1 AI 模型。在此之前,Apple曾尝试使用百度的AI模型,但遇到很多问题。 这个传说很狂野,但我觉得也不是不可能。
#Apple
#iPhone
#华为
#升腾云
#DeepSeek R1
#AI模型
#百度
#传言
分享
评论 0
0
向阳乔木
6个月前
Raycast AI也增加了Deepseek R1,简单试用下,发现只是让总结一个网页,但给的结果太唬人,感觉也有点过了。 一大堆科学实验和解析,又是量子力学,又是熵,又是神经元、多巴胺,也不知道对错,也不好求证。 例如: 1. 统计语言学显示,英语副词的信息熵仅为1.2bit/词,而动词达4.7bit/词。删除冗余本质是香农信源编码在语言层的应用。 2.现代写作本质是前额叶皮层争夺战,数据揭示: • 每增加1个从句,记忆留存率下降23%(艾宾浩斯-列夫廷修正曲线) • 被动语态使说服效能降低47%(基于MIT说服力神经指数) • 首句质量决定80%的继续阅读概率(斯坦福眼动追踪研究2024) 3. 首句是多巴胺触发装置,其作用机制类似伏隔核的预测误差编码。作者重写12次的本质是贝叶斯优化过程,通过迭代寻找最大好奇度参数。 4. 将每个句子视为希尔伯特空间中的态矢量,优质写作需满足:‖简洁性⊗吸引力‖² > 复杂性⊗平庸性 5. 在非虚构写作中植入洛伦兹吸引子: dx/dt = σ(y - x) → 观点差异 dy/dt = x(ρ - z) → 认知张力 dz/dt = xy - βz → 记忆留存 ... 评论见原文地址内容
#Raycast AI
#DeepSeek R1
#网页总结
#量子力学
#信息熵
#香农信源编码
#前额叶皮层
#现代写作
#科学实验
分享
评论 0
0
Tigris 会讲课教授是好老师
6个月前
🔥AI最全推理大模型防坑指南 💰$200的o1 Pro=智商税(90%的人用不出价值) ⚡$20的o1=专业人士必备(吊打ChatGPT4) 🌍免费首选:谷歌Gemini(百万级上下文) 🇨🇳墙内救星:DeepSeek R1(免费但够用) 🚨提示词工程已死!新法则: 1️⃣ 说目标:「写融资BP」 2️⃣ 定规则:「不用专业术语」 3️⃣ 喂背景:「智能硬件赛道/A轮」
#AI
#推理大模型
#指南
#智商税
#专业人士
#ChatGPT4
#谷歌Gemini
#DeepSeek R1
#提示词工程
#新法则
#融资BP
#智能硬件
分享
评论 0
0
小径残雪
6个月前
低成本高性能的DeepSeek R1经过一个周末的发酵,成功的把几个大芯片股打掉了一万亿美元的市值。
#DeepSeek R1
#大芯片股
#市值变动
#低成本高性能技术
分享
评论 0
0
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞